dormir forte

dormir forte
сущ.
общ. крепко спать

Итальяно-русский универсальный словарь. 2013.

Игры ⚽ Нужна курсовая?

Смотреть что такое "dormir forte" в других словарях:

  • Dormir — Sommeil Pour les articles homonymes, voir Sommeil (homonymie). Chaton endormi …   Wikipédia en Français

  • Grand tour de France de Charles IX — Pour les articles homonymes, voir Tour de France et Grand tour (homonymie). Le grand tour de France est le voyage que Catherine de Médicis fait entreprendre au roi Charles IX à travers la France pour lui faire découvrir son royaume, qui vient d… …   Wikipédia en Français

  • écraser — [ ekraze ] v. tr. <conjug. : 1> • 1560; moy. angl. to crasen, probablt d o. scand. 1 ♦ Aplatir et déformer (un corps) par une forte compression, par un choc violent. ⇒ broyer, comprimer, fam. écrabouiller, presser. Écraser sa cigarette dans …   Encyclopédie Universelle

  • Chaine De Markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… …   Wikipédia en Français

  • Chaine de Markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… …   Wikipédia en Français

  • Chaine de markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… …   Wikipédia en Français

  • Chaîne De Markov — Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un processus stochastique… …   Wikipédia en Français

  • Chaîne de Markov — Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un processus stochastique… …   Wikipédia en Français

  • Chaîne de Markov à espace d'états discret — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… …   Wikipédia en Français

  • Chaîne de markov — Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un processus stochastique… …   Wikipédia en Français

  • Chaînes de Markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… …   Wikipédia en Français


Поделиться ссылкой на выделенное

Прямая ссылка:
Нажмите правой клавишей мыши и выберите «Копировать ссылку»